John Nicholson написал интересный пост с советами по экономии дискового пространства в кластере VMware vSAN, а также некоторыми рекомендациями по использованию техник дедупликации и сжатия данных.
Вот каким моментам следует уделить внимание:
1. Посмотрите на параметр политики хранения object space reservation (OSR) - если он установлен в 0, то виртуальные диски машин будут тонкими. Если же он будет больше 0, то пространство под диски будет резервироваться и vSAN не сможет эффективно использовать дедупликацию, так как будет вынужден поддерживать фиксированные резервы дискового пространства под ВМ.
2. Помните, что параметр резервирования свопа установлен в 100%, но это можно поменять, как мы писали в этой статье. Уменьшение параметра резервирования свопа оправдано, когда вы не собираетесь использовать memory overcommitment (то есть, ресурсов у вас с запасом), а значит виртуальным машинами не потребуется активно сбрасывать страницы в своп в случае недостатка физической памяти.
3. Помните, что отдельно развертываемые виртуальные машины c дисками типа "thick" или "Eager Zero Thick" (например, со старых клиентов vSphere Client или через консоль) могут перекрывать настройку политики OSR. Чтобы пофиксить это, вы можете переприменить политику хранения (storage policy) на эти хранилища. William Lam написал несколько скриптов, которые позволяют найти такие ВМ и накатить политики по-новой.
4. Убедитесь, что данные записываются на capacity tier - только там они будут дедуплицироваться и сжиматься. Если вы развернули всего 3-4 машины, они могут остаться в буффере (write buffer). Механизмы vSAN не тратят ресурсы на дедупликацию и сжатие объектов, которые долго не живут (то есть, находятся в буффере на запись). Например, 10 машин по 8 ГБ диска каждая тоже могут остаться на стейджинге и, пока не переместятся в постоянное хранилище, не будут дедуплицированы.
Вот тут можно посмотреть, как именно отрабатывает дедупликация, и сколько она экономит дискового пространства:
Ну и вот что Джон рекомендует в плане тестирования дедупликации и компрессии:
Самый простой способ организовать тестирование - запустить клонирование 200+ виртуальных машин, они сразу пойдут в capacity tier, и механизм дедупликации включится.
Надо помнить, что тестирование этих механизмов и реальное их применение дадут разные результаты, так как при тестировании вы последовательно пишете данные на хранилище и избегаете узких мест, связанных с дестэйджингом из кэша во время размеренного использования кластера vSAN в продакшене.
Тестирование алгоритма сжатия на данных, которые плохо сжимаются - плохая идея, так как в этом случае vSAN не будет тратить ресурсы на их сжатие, чтобы записать на хранилище. Это позволит быстрее читать их, а экономия с точки зрения диска будет небольшой (к тому же, алгоритм сжатия LZ4 не такой быстрый, как хотелось бы).
При резких всплесках объема записываемых данных и IOPS, которые не помещаются в кэш, видно, что механизмы сжатия и дедупликации приостанавливаются и теряют эффективность. Это связано с тем, что vSAN прежде всего должен обеспечить хороший показатель latency (то есть уровня сервиса), а уже во вторую очередь эффективность механизмов дедупликации и компрессии.
Как многие из вас знают, в конце лета и начале осени прошли главные конференции по виртуализации этого года - VMworld 2017 и VMworld Europe 2017. Об основных анонсах мероприятий мы писали по этой ссылке, но в рамках этих ивентов было еще столько всего, что обо всем, конечно же, не напишешь.
Специально для тех, кто хочет узнать тонкости всех докладов, которые были представлены на конференциях, компания VMware создала репозиторий на GitHub, где содержатся вообще все ссылки на сессии, многие из которых дадут много новой информации и технических деталей о продуктах и технологиях виртуализации от VMware:
Сессии доступны как в виде роликов на Youtube, так и виде PDF-документов.
Ну а вот список самых популярных сессий (топ-10 по числу просмотров на Youtube):
[SER1143BU] - A Deep Dive into vSphere 6.5 Core Storage Features and Functionality [NET1152BU] - Introduction to VMware NSX
[SER1534BUR] - vSphere Performance Troubleshooting and Root Cause Analysis
[VIRT1309BU] - Monster VMs (Database Virtualization) with vSphere 6.5: Doing IT Right
[NET1345BU] - NSX in Small Data Centers for Small and Medium Businesses
[SER2724BU] - Extreme Performance Series: Performance Best Practices
[VIRT1430BU] - Performance Tuning and Monitoring for Virtualized Database Servers
[ADV1587BU] - NSX + VMware Horizon: A Security Architecture for Delivering Desktops and Applications with VMware
[SER2355BU] - Best Practices for All-Flash Arrays with VMware vSphere
[SER2965BU] - Advanced Troubleshooting of ESXi Server 6.x for vSphere Gurus
[SER2077BU] - Achieve Maximum vSphere Stability with PowerCLI Assisted Documentation: From Buildout to Daily Administration
Как часто вам приходится увеличивать логические диски внутри гостевых ОС ВМ? Довольно часто, не так ли? Вам надо сначала найти вашу ВМ в vSphere Client, потом кликнуть Edit Settings и перво-наперво увеличить виртуальный диск ВМ. После вы должны будете открыть RDP к вашей ВМ, затем открыть Disk Management, выбрать Rescan Disks из контекстного меню и только после этого ещё один правый клик на нужном вам логическом диске и вот сейчас выбрать Extend Volume...
Недавно компания VMware выпустила интересный документ VMware vSphere APIs for I/O Filtering (VAIO), в котором описываются основные принципы работы данной технологии. Ниже мы расскажем о них вкратце, а также затронем тему того, каким образом можно использовать VAIO в производственной среде.
VAIO - это технология и API, которые позволяют получать прямой доступ к потоку ввода-вывода (I/O Stream) гостевой ОС виртуальной машины. Механизм VAIO уже сейчас способствует созданию партнерских продуктов для решения самых разнообразных задач (например, кэширование write-back и write-through). VAIO основан на механике Storage Policy Based Management (SPBM), которая предназначена для управления правилами хранения виртуальных машин и их работой с хранилищами.
Техническая реализация данного механизма подразумевает использование драйвера VAIO (filter driver), который устанавливается на хосте VMware ESXi как пакет VIB и не требует установки никакого специального ПО в гостевой ОС виртуальной машины.
Посмотрим на эту картинку, на которой изображен путь данных от виртуальной машины к физическому устройству хранения. На ней представлены 2 компонента, относящиеся к VAIO. Первый - это VAIO фреймворк, работающий на уровне ядра VMkernel и определяющий действующую политику фильтра. Второй - это IO Filter, представляющий собой программное обеспечение, работающее на уровне пользовательской среды исполнения (User World) сервера ESXi. Этот драйвер фильтра исполняет свою функцию (например, кэширование данных или их репликация), после чего передает их на физическое устройство хранения для записи.
Такая архитектура позволяет драйверу IO-фильтра получать доступ к потоку ввода-вывода, не сильно не влияя на производительность исполнения SCSI-команд. Еще одна особенность IO-фильтра - это возможность иметь доступ к потоку ввода-вывода как в сторону записи (от ОС к хранилищу), так и в обратную сторону (квитанции о прохождении команд). Это полезно, например, при использовании IO-фильтра для технологии репликации, где очень важно получать квитанции о записи данных на диск.
Кстати, SCSI-команды попадают к IO-фильтру сразу после того, как они проходят слой эмуляции SCSI (он же vSCSI), что позволяет использовать VAIO для любых типов хранилищ - VMFS, NFS, SCSI и vSAN. Ну а перехват команд IO-фильтром перед их отсылкой в сетевой стек к хранилищу позволяет обеспечить целостность данных и безопасность.
Еще, если внимательно посмотреть на архитектуру прохождения потока ввода-вывода, можно заметить, что драйвер IO-фильтра работает на уровне User World, а значит в целом не влияет на стабильность работы сервера ESXi. Даже если он вдруг прекратит свою работу, основной стек прохождения SCSI-команд, расположенный в ядре, продолжит работать в нормальном режиме.
Работает IO Filter на уровне отдельных VMDK-дисков конкретных ВМ, что открывает широкие возможности для механизма политик Storage Policy Based Management (SPBM) и применения их к отдельным виртуальным машинам и сервисам.
Все вышеперечисленное позволяет применять VMware VAIO при решении следующих типов задач:
Encryption – стороннее ПО за счет использования механизма VAIO может на лету шифровать и расшифровывать поток данных от виртуальной машины. Таким образом на хранилище будут помещаться уже шифрованные данные. Гранулярность работы VAIO позволяет обслуживать данные, идущие даже не от всей виртуальной машины, а только от одного приложения.
De-duplication - этот механизм уже использует решение VMware Virtual SAN. В реальном времени можно дедуплицировать данные, проходящие через драйвер и в таком виде уже класть на хранилище в целях экономии дискового пространства. Эта техника доступна и партнерам VMware.
Tiering - данные различной степени важности, критичности или классифицированные по другим критериям теперь можно класть на хранилища с разными характеристиками производительности и доступности (ярусы). Механизм VAIO тут поможет проанализировать характер данных и определить конечное их место назначения.
Analytics - теперь можно анализировать непосредственно поток данных от конкретной виртуальной машины и на основе этого строить множество различных решений, включая решения по кэшированию (например, такой продукт как PrimaryIO, который можно напрямую подключить к гипервизору). Затем можно, например, искать в трафике данные определенных приложений, либо, использовать механизм write-back кэширования.
Технология VAIO работает, начиная с VMware vSphere 6.0 Update 1, поддерживает горячую миграцию vMotion (VAIO должна быть доступна на целевом хосте) и кластеры VMware DRS (должна быть доступна на всех хостах).
Давайте теперь посмотрим, как VAIO работает на практике на одном из примеров. Чтобы начать работать с VAIO, вам нужно установить IO Filter в виде VIB-пакета, который реализует функциональную составляющую партнерского продукта для VMware vSphere.
Как правило, вместе с фильтром идет и политика SPBM (аналогичная тем, которые есть для vSAN или VVols, например), которую можно назначать виртуальным машинам на уровне виртуальных дисков VMDK.
Эту политику можно назначить при создании виртуальной машины в разделе Select Storage (в данном случае это политика кэширования на SSD):
Пример политики, идущей вместе с фильтром, как правило включает в себя Common Rule - правила, которые реализуют Data Services (то есть основной функционал фильтра) и определяются через компоненты Storage Policy Components (путем добавления компонентов в разделе Common Rules).
Например, в данном случае это тип кэширования Write Through или Write Back, который мы задаем в разделе Common Rules при создании новой политики хранения:
По умолчанию эти компоненты устанавливаются вместе со встроенными фильтрами vSphere и другими продуктами, которые пополняют набор IO-фильтров, а соответственно и компонентов по мере их установки. За счет использования Storage Policy Components возможности IO-фильтров могут быть включены в любую из уже настроенных политик VM Storage Policies.
Это очень удобно, поскольку на данный момент виртуальная машина или VMDK-диск могут иметь только одну примененную к ним политику хранения, но к ним можно добавить компоненты от разных фильтров.
Как видно из картинки, на данный момент не так много партнеров используют технологию VAIO для своих продуктов, а категорий решений всего две - репликация и кэширование. Но VMware активно работает в этом направлении, и в скором времени, возможно, мы увидим еще несколько продуктов, реализующих функционал IO-фильтров для решения новых задач.
В сентябре мы писали о новых возможностях тонкого клиента vSphere Client 3.21, предназначенного для управления виртуальной инфраструктурой через браузер на базе технологии HTML5. За прошедший месяц вышли обновленные версии VMware vSphere Client 3.22, 3.23 и 3.24, о новых возможностях которых мы расскажем ниже.
Итак, что нового появилось в vSphere Client (на картинке выше, кстати, скрин кастомизации ОС):
Возможность кастомизации всех сетевых настроек, включая шлюз по умолчанию, при применении спецификации кастомизации гостевой ОС виртуальной машины (при клонировании или кастомизации существующей ВМ).
Добавление контроллера NVMe для новой или существующей ВМ.
Улучшенное представление просмотра деталей о совместимости в мастере развертываниия новой ВМ.
Возможность загрузки папки из файлового браузера.
Группы DRS могут быть отфильтрованы по их составляющим хостам.
В портлете VM Storage Policy отображаются Replication groups.
Можно посмотреть список установленных VIB-пакетов (на vSphere 6.5).
Редактирование информации о видеокарте для виртуальной машины.
Пофикшено множество багов, в том числе касающихся снапшотов.
Скачать VMware vSphere Client 3.24 можно по этой ссылке.
Если у вас есть система хранения данных, то рано или поздно она обязательно подвергнется модернизации, так как невозможно представить развивающийся бизнес без постоянного роста вычислительных ресурсов. Карло Велтен, генеральный директор Crisp Research, на первой конференции FlashForward, состоявшейся 1 июня 2017 года в Мюнхене, рассказал о четырех главных требованиях к модернизации систем хранения, которые сделают ИТ-инфраструктуру более надежной и современной.
Но рекомендации не имеют смысла без реализации на практике, поэтому остановимся на каждой из них применительно к новейшей системе хранения данных NetApp® All Flash FAS.
Масштабируемость (Skalierbarkeit)
NetApp® All Flash FAS обладает уникальной возможностью масштабирования среди продуктов компаний, представляющих на рынке решения с флэш-памятью. Все модели All Flash FAS могут быть расширены до 24 узлов. Это позволяет добиться невероятной «сырой» емкости в 7,3 Пб, что значительно больше, чем могут предложить конкуренты сегодня или в ближайшем будущем.
Но это еще не все! 5 июня этого года NetApp представила новую прошивку ONTAP® 9.2. С ее помощью клиенты могут масштабировать свою систему хранения почти до бесконечности, используя облачное хранилище. В версии 9.2 реализована новая технология FabricPool, которая позволяет осуществлять автоматический tiering между частными и публичными облаками, перемещая холодные данные с SSD-агрегата на более медленный объектный уровень (облако Amazon S3 или СХД NetApp StorageGRID). Это повышает эффективность использования мощностей и защиту инвестиций.
Хорошим примером использования масштабирования СХД от NetApp служит кейс Европейского космического агентства, ознакомиться с которыми вы можете по данной ссылке.
Производительность и доступность (Performance and Verf?gbarkeit)
Производительность системы хранения – очень важный параметр, так как потребности бизнеса очень быстро меняются, а ИТ-инфраструктура должна им соответствовать и быть гибкой. Поэтому создание вычислительных центров на базе самых мощных из представленных на рынке СХД, таких как All Flash FAS, является очень выгодным вложением. Результаты тестов SPC-1 показывают, что All Flash FAS входит в тройку самых быстрых систем хранения, доступных на текущий момент. Она также имеет отличный показатель соотношения цены и производительности – тот же рейтинг СХД доказал, что AFF 700s имеет лучшее соотношение $/IOPS из 10 протестированных систем.
Безопасность хранения данных (Datenhoheit and Sicherheit)
Сейчас набирают популярность решения гибридного облака, но безопасное перемещение данных между узлами внутри него все еще вызывает сомнения и опасения. Для решения этой проблемы NetApp предлагает Data Fabric. С помощью технологии Data Fabric вы можете безопасно перемещать данные в облаках (частных или публичных) и управлять ими, чтобы получить все преимущества гибридной модели. Модели NetApp серии All Flash FAS могут быть интегрированы в Data Fabric для репликации, создания резервных копий и распределения данных по различным уровням систем хранения в публичном или частном облаке.
Для того чтобы узнать больше об этой технологии, ознакомьтесь с нашим информационным буклетом.
Эффективность (Effizienz)
Для повышения эффективности системы хранения используют такие технологии, как сжатие, дедупликация и экономное распределение (thin provisioning), но ONTAP теперь также позволяет делать дедупликацию на уровне агрегата (aggregate level) и уменьшать передачу избыточных данных между томами, что повышает эффективность хранения на 30%. Это важно как клиентам крупных центров обработки данных, которые ищут способы занимать меньше пространства путем оптимизации инфраструктуры, так и небольшим поставщикам услуг для сервисных провайдеров, когда платить приходится за каждый отдельный юнит. Переход на эффективную технологию флэш-памяти дает значительную экономию для клиентов независимо от их размера. ИТ-организации, которые перешли на систему хранения All Flash FAS, сократили используемую площадь от 4 до 10 раз.
All Flash FAS от NetApp удовлетворяет всем требованиям к модернизации СХД и может быть рекомендована для компаний любого уровня и масштаба.
Для более детального знакомства с решением NetApp All Flash FAS и другими системами хранения данных NetApp, предоставляемыми компанией «ИТ-ГРАД», обращайтесь в центр компетенции. Здесь вы всегда сможете задать интересующие вас вопросы и обсудить различные варианты построения ИТ-инфраструктуры.
Как пишут многие, в последнее время с виртуальным модулем VMware vCenter Server Appliance (vCSA) часто случаются проблемы. Например, вот такая ошибка появляется время от времени:
503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x0000559b1531ef80] _serverNamespace = / action = Allow _pipeName =/var/run/vmware/vpxd-webserver-pipe)
Как пишет Anthony Spiteri, зачастую эта ошибка связана с тем, что Linux-система, на базе которой работает vCSA (а именно Photon OS в vCSA 6.5), пока еще имеет достаточно ненадежную реализацию стека работы с хранилищами (в отличие от того, который есть в Windows). Поэтому при некоторых неполадках со стораджем или появлении высокой задержки (latency) сервер vCSA может "выпадать".
Ведь vCSA 6.5 имеет аж 12 файлов виртуальных дисков VMDK (раньше их было два), с которыми что-нибудь да может иногда случиться. Один из вариантов решения - проверить диски утилитой e2fsck, которая может проблем в случае 503 ошибки. Также проблема может таиться в USB-устройствах, и тогда вам поможет вот эта статья. А еще можно заглянуть вот сюда.
Может еще помочь выполнение следующих команд в консоли vCSA для перезапуска vSphere Web Client (надо будет подождать 15 минут):
Ну и не забудьте заглянуть в эту ветку форумов VMware.
Интересно, что совсем недавно компания VMware анонсировала ежемесячные обновления vCSA, что может постепенно уменьшить имеющиеся проблемы. Но пока надежность vCenter для Windows остается более проверенной штукой (по крайней мере, в плане хранилищ), поэтому пока все вокруг топят за vCSA, подумайте нужно ли именно сейчас на него переезжать.
Это Часть 3 в серии о Storage DRS. В предыдущей части мы говорили о том как создавать и удалять SDRS Anti-Affinity правила. Чтобы закрыть тему, нам осталось редактировать/реконфигурировать существующие правила. Логично предположить, что это будет функция Set-SdrsAntiAffinityRule.
Многие администраторы больших виртуальных инфраструктур VMware vSphere, в которых работают кластеры отказоустойчивых хранилищ VMware vSAN, часто задаются вопросом, какой дисковый контроллер выбрать для организации хранения на хостах ESXi.
Дункан Эппинг дает простую рекомендацию - надо брать один из самых недорогих поддерживаемых контроллеров, который имеет большую глубину очереди (Queue Depth). Например, часто в рекомендациях для vSAN можно встретить контроллер Dell H730, который является весьма дорогим устройством, если брать его на каждый сервер.
Но его не обязательно покупать, достаточно будет дискового контроллера Dell HBA 330, который и стоит дешевле, и глубину очереди имеет в 10 раз больше, чем H730 (хотя оба они соответствуют требованиям vSAN). Да, у H730 есть кэш на контроллере, но он в данном случае не требуется. Лучше использовать интерфейс NVMe для подключения отдельного SSD-кэша, не затрагивающего RAID-контроллеры (его нужно размещать как можно ближе к CPU).
Поэтому итоговая рекомендация по выбору дискового контроллера для кластеров vSAN проста - берите любое недорогое устройство из списка совместимости vSAN Compatibility Guide, но с хорошей глубиной очереди (например, HP H240), а на сэкономленные деньги отдельно организуйте кэш на базе NVMe.
На днях компания VMware выпустила новую версию своей флагманской платформы для виртуализации и доставки настольных ПК предприятия - VMware Horizon 7.3. Напомним, что прошлая версия VMware Horizon 7.2 вышла в июне этого года.
Давайте посмотрим, что нового появилось в компонентах VMware Horizon 7.3:
1. VMware Horizon View Connection Server.
Новое средство Horizon Help Desk Tool.
Оно позволяет выполнять следующие задачи:
Просматривать данные о приложении, его процессах и использовании ресурсов внутри виртуальной машины или опубликованного десктопа, чтобы идентифицировать приложения потребляющие слишком много ресурсов.
Просматривать информацию из event log о действиях пользователя.
Просматривать обновленнные метрики, такие как версия Horizon Client или протокола Blast.
Просматривать метрики сессий, такие как информация о ВМ, ее CPU и использовании памяти.
Назначать роль с доступом к Horizon Help Desk Tool, чтобы делегировать полномочия пользователям по траблшутингу и поддержке систем.
Средства мониторинга.
Если база данных с событиями неожиданно выключается, то в консоли Horizon Administrator есть средства аудита, которые позволяют понять, какие события произошли до и после выключения базы данных.
Мгновенные клоны (Instant Clones).
Теперь можно создавать пулы десктопов типа dedicated instant clone, то есть с выделенными пользователям десктопами.
Поддержка ОС Windows Server для мгновенных клонов. Список поддерживаемых систем приведен в KB 2150295.
Можно выполнять операции копирования и вставки в поле AD container и дереве AD, когда вы создаете пул instant clone.
Если в папках internal folders, созданных в vSphere Web Client, больше нет ВМ - их можно удалить.
Можно использовать утилиту IcUnprotect.cmd для связанных клонов, чтобы разблокировать или удалить шаблон, реплику ВМ, родительские ВМ или папки с хостов vSphere.
Теперь мгновенные клоны совместимы с технологией Storage DRS (sDRS). То есть они могут быть на датасторах, которые являются частью кластера sDRS.
Архитектура Cloud Pod.
Максимум total session limit увеличен до 140 000.
Размер сайта (site limit) увеличен до 7.
Теперь можно настраивать пункты Windows Start menu для глобального назначения прав. Теперь когда пользователь соединяется с Connection Server, который является частью pod federation, Horizon Client for Windows помещает нужные ярлыки меню Пуск на клиентском устройстве пользователя.
Опубликованные десктопы (Published Desktops) и пулы приложений (Application Pools).
Теперь можно запрещать доступ к пулам десктопов, пулам приложений, глобальным назначениям прав на десктопы и приложения для определенных клиентских компьютеров.
Теперь можно настраивать пункты Windows Start menu для пулов десктопов и приложений. Теперь когда пользователь соединяется с Connection Server, Horizon Client for Windows помещает нужные ярлыки меню Пуск на клиентском устройстве пользователя.
Виртуальные десктопы и пулы.
Протокол Blast Extreme позволяет не терять соединение при кратковременном отсутствии связи для Windows-клиентов.
Обновляемые счетчики производительности PerfMon на Windows-агентах для сессий Blast предоставляют информацию об аудио, CDR, USB и устройствах виртуальной печати.
Программа Customer Experience Improvement Program.
С помощью USB over Session Enhancement SDK теперь не нужно открывать TCP-порт 32111 для трафика USB в DMZ, где находится Security Server. Эта фича поддерживается как для виртуальных десктопов, так и для опубликованных (RDS).
Поддержка баз данных.
Возможность Always On Availability Groups для Microsoft SQL Server 2014 теперь полностью поддерживается в релизе Horizon 7.3.
2. Агенты Horizon Agent for Linux
Здесь произошли следующие улучшения:
Соединения на базе UDP для протокола Blast Extreme.
Протокол UDP включен по умолчанию для клиента и агента. Помните, что TCP будет иметь лучшую производительность в LAN, но UDP будет работать лучше в WAN. Таким образом, в LAN нужно будет отключить приоритет работы по UDP.
Поддержка KDE.
Поддержка KDE доступна для CentOS 7, RHEL 7, Ubuntu 14.04, Ubuntu 16.04 и SLED 11 SP4.
Поддержка MATE.
Она доступна для виртуальных машин Ubuntu 14.04 и 16.04.
Аппаратный кодек H.264.
Теперь он доступен для технологии vGPU с видеокартами NVIDIA, на которых используется драйвер серии 384 или более поздний.
Поддержка новых платформ.
Теперь в качестве платформы для развертывания виртуальных ПК поддерживаются ОС RHEL 7.4 x64 и CentOS 7.4 x64.
3. Агенты Horizon Agent.
Функция HTML5 Multimedia Redirection.
Теперь можно установить фичу HTML5 Multimedia Redirection, выбрав соответствующий пункт в установщике Horizon Agent. В этом случае, если пользователь пользуется браузером Chrome, то мультимедийный контент HTML5 будет передаваться от виртуального декстопа к клиентской машине, снижая нагрузку на хост ESXi. Это позволяет пользователю получать лучшую производительность аудио и видеоконтента.
Поддержка SHA-256.
Агент Horizon Agent теперь поддерживает алгоритм шифрования SHA-256. Также он поддерживается со стороны Horizon Client 4.6, а также Horizon 7 версии 7.2 и более поздней.
Улучшенные функции USB redirection в продукте User Environment Manager.
В User Environment Manager был увеличен таймаут, что позволяет убедиться в том, что при долгом логине умная политика USB redirection smart policy будет применена.
Теперь можно отключить контроль User Environment Manager над функцией USB redirection путем установки ключа реестра в клиентской машине.
4. Horizon GPO Bundle.
Файл шаблона VMware Horizon Printer Redirection ADMX.
Новый файл vdm_agent_printing.admx содержит настройки политик фильтрации перенаправляемых принтеров.
Настройка групповой политики "Enable VMware HTML5 Multimedia Redirection".
Файл шаблона VMware View Agent Configuration ADMX - vdm_agent.admx - позволяет включить возможность HTML5 Multimedia redirection.
Настройка групповой политики "Enable URL list for VMware HTML5 Multimedia Redirection".
Файл шаблона VMware View Agent Configuration ADMX - vdm_agent.admx - позволяет указать, для каких сайтов перенаправлять контент HTML5.
Настройка групповой политики "Enforces Wallpaper Setting from GPO".
Файл шаблона VMware View Agent Configuration ADMX - ViewPM.admx - позволяет установить обои рабочего стола в соответствии с настройками групповой политики AD.
В следующем посте мы расскажем о новых возможностях клиентов VMware View Horizon 7.3.
Скачать VMware Horizon 7.3 можно прямо сейчас по этой ссылке.
На прошедшей конференции VMworld 2017 в рамках сессии "VMware Virtual Volumes Technical Deep Dive" компания VMware рассказала о технических аспектах технологии VVols, а также возможностях, которые появятся в следующей версии платформы виртуализации VMware vSphere:
Самый интересный слайд показывают в конце презентации:
Во-первых, надо отметить, что следующая версия vSphere будет иметь номер 6.7, а, во-вторых, давайте посмотрим на три фичи, которые появятся в VVols, подетальнее:
Support for Microsoft Cluster Server (MSCS) – это была одна из причин, по которой администраторы до сих пор используют RDM, а этот вариант использования не поддерживается со стороны VVols. Данная поддержка позволит расширить сферу использования технологии.
Performance parity with VMFS – в данном случае цель VMware - обеспечить высокую производительность VVols, поскольку сейчас есть промежуточный компонент Protocol Endpoint, который замедляет работу подсистемы ввода-вывода. Также будут оптимизированы такие операции как bind, соединения VASA, а также обработка метаданных томов VVols. Кстати, в целом-то VVols должна работать даже побыстрее, чем VMFS.
IPv6 support – платформа vSphere уже давно поддерживает IPv6, а сами VVols будут поддерживать IPv6 на уровне службы VASA Provider.
Поддержка NFS 4.1 и операций BIND/UNBIND/REBIND. Сейчас они делаются через VASA provider, которые идут через control path, поэтому медленные, а будут работать через Protocol Endpoint (то есть data path, что быстрее).
Будем следить за новостями о новых возможностях VMware vSphere 6.7.
Это Часть 2 в серии о Storage DRS. Часть 1 «Как конфигурировать Storage DRS кластеры с PowerCLI – Часть 1» находится здесь. Часть 3 «Как конфигурировать SDRS Anti-Affinity правила с PowerCLI – Часть 3» и может быть даже Часть 4 «Как просмотреть историю операций SDRS кластеров с PowerCLI – Часть 4» ожидаются в ближайшем будущем. Следите за новыми публикациями! Эта статья расскажет о 4 новых функциях...
Сейчас защита кластера обеспечивается за счет избыточности дисковых объектов, которые размещены на разных хостах, и, в зависимости от степени дублирования эти объектов (политика failures to tolerate), кластер vSAN переживает отказы некоторого количества хостов ESXi в случае сбоя. Но сбои бывают и другого характера: например, повреждение данных, которое будет отреплицировано на все дисковые объекты.
Поэтому на VMworld было рассказано о Integrated Data Protection - технологии, которая защищает данные во времени и позволяет обеспечить исполнение политик RPO (recovery point objective). Работает она за счет создания снапшотов виртуальных машин - локально или удаленно.
Во-первых, по умолчанию снапшоты будут храниться локально (local protection). VMware ставит перед собой цель сделать так, чтобы до 100 снапшотов одной виртуальной машины не сильно влияли на ее производительность. Сейчас если создать столько снапшотов - виртуальная машина у вас сразу же загнется.
Во-вторых, работать все это будет на уровне политики хранения механизма storage policy based management (SPBM), в рамках которой можно будет задать и откидывание снапшотов в удаленные локации, например, NFS-шары, Data Domain или облако Amazon S3 (remote protection).
К примеру, вы можете использовать локальную защиту данных снапшотами до 4 часов, а по прошествии этого времени откидывать их в облако.
Ну и, в-третьих, все это будет поддерживать последние нововведения механизма VSS, чтобы создавать консистентные снапшоты уровня приложений.
При восстановлении ВМ из снапшота можно будет выбрать одну из контрольных точек во времени, а саму ВМ можно восстановить в изолированном сетевом окружении (например, чтобы проверить ее работоспособность перед вводом в продакшен).
VMware обещает сделать Integrated Data Protection в ближайших версиях VMware vSAN, будем смотреть за анонсами VMworld Europe 2017 в ближайшие дни.
The VMworld Conference, Barcelona, organized by the VMware, Inc will take place from 11th Sep to the 14th Sep 2017 at the Fira Barcelona Gran Via in Barcelona, Spain. The conference will discuss how the software-defined data center is extending the proven model of virtualization across storage, networking and security. Таги:
За прошедшие три недели, во время конференции VMworld 2017 и сразу после нее, компания VMware выпустила обновления своего HTML5-клиента для управления виртуальной инфраструктурой - vSphere Client 3.21 и 3.20. Напомним, что о версии vSphere Client 3.19 мы писали вот тут.
Давайте посмотрим, что нового появилось в последних двух обновлениях клиента, который скоро станет основным средством управления виртуальной инфраструктурой:
Создание и редактирование спецификаций кастомизации ВМ с кастомными сетевыми настройками.
Редактирование и клонирование компонента Storage Policy.
Установки возможностей хранилищ (Datastore > Configure > Capability sets).
Создание, редактирование и удаление групп Link Aggregation на распределенных виртуальных коммутаторах.
Просмотр установленных I/O Filters для хостов и кластеров.
Создание и конфигурирование сетевых пулов ресурсов для механизма Network I/O Control v3.
Запрос подтверждения при логауте во время закачки/скачки файла с датастора.
Новый фильтр в диалоговом окне VM Settings > Network Adapter > Browse.
Возможность включения/отключения IPv6 на хостах ESXi.
Информация о назначенных Shares доступна в представлениях Resource Allocation для кластеров и пулов ресурсов.
Если ESXi находятся под управлением vCenter 6.5, то для сенсоров оборудования показываются временные метки, когда были получены их статусы.
Загрузить VMware vSphere Client 3.21 можно по этой ссылке.
Некоторые из вас знают, что, начиная с версии vSAN 6.2, стало возможно создание "тонких" (thin) файлов подкачки. В более ранних версиях vSAN было возможно создавать только reserved своп-файлы, что требовало довольно больших объемов дисковой памяти. То есть, если у машины 16 ГБ оперативной памяти, то в два раза больше будет занято и на диске под своп (32 ГБ), так как при FTT=1 (failures to tolerate) дисковые объекты дублируются в рамках кластера.
Поэтому для сред, в которых достаточно памяти у хостов, и отсутствует Memory Overcommitment, сделали параметр в настройках кластера SwapThickProvisionDisabled, позволяющий виртуальным машинам создавать тонкие файлы подкачки.
Чтобы выставить эту настройку, есть специальный скрипт PowerCLI, который применяет ее ко всем хостам ESXi кластера vSAN.
Однако выставить настройку недостаточно - ведь, чтобы файлы подкачки стали тонкими, то есть пересоздались, надо перезагрузить (выключить и включить) виртуальные машины с толстыми swap-файлами. Найти такие машины позволит вот этот Python-сценарий. Ну а дальше уже перезагрузите машины по списку - это позволит вам сэкономить значительный объем дискового пространства кластера.
Некоторое время мы писали о портале WhatMatrix, где можно посмотреть относительно свежие сравнения платформ виртуализации, а также некоторых других технологий и решений. Хотим напомнить об этом интересном средстве, особенно в контексте последних изменений - на сайте было добавлено много новых категорий сравнений, а скоро будет добавлено еще больше (не только глобальные продукты, но и нишевые решения):
Сравнения представлены в различных категориях:
Application Delivery Controllers - это так называемые контроллеры доставки приложений, то есть ПО, которое оптимизирует трафик на входящем/исходящем канале на уровне датацентра, балансирует нагрузку и выполняет прочие служебные задачи.
DR for Virtual Environments - это решения для обеспечения катастрофоустойчивости виртуальных машин и сервисов на уровне датацентра.
Cloud Management Platforms - это решения для управления онпремизной и публичной облачной инфраструктурой.
SDS and HCI - различные решения для хранения данных в виртуальной среде и гиперконвергентные платформы управления виртуальной инфраструктурой.
Virtualization - это, собственно, платформы виртуализации, наиболее интересная часть.
Cloud Storage Gateways - средства транислирования облачных API-запросов к хранилищам на блочный уровень.
UDM (Unified Device Management) - комплексные решения для управления пользовательскими устройствами.
Backups for Virtual Environments - средства резервного копирования виртуальных машин.
В ближайшем будущем также появится сравнение публичных облаков (Public Cloud Comparison), что для многих суперактуальная штука сегодня:
Разработчики портала утверждают, что в ближайшее время также будет добавлено около 170 значительных изменений, что превратит ресурс в главный источник знаний о различиях в корпоративном софте для датацентров. Будет даже добавлен обзор Blockchain-решений. Также обещают кастомизацию сравнений и результатов под конкретные требования пользователя, чтобы не ставить его перед выбором, какие продукты подставлять в сравнения и как между собой сравнивать их результаты.
Интересно, что для некоторой справедливости, при каждой загрузке страницы вендоры и их продукты в колонки для сравнения подставляются случайным образом (в рамках выбранной категории, есественно).
В общем, заходите на WhatMatrix.com и решайте сами - адекватно там все или нет.
Несмотря на растущую популярность технологии VMware vSAN, большинство крупных предприятий по-прежнему частично или полностью продолжают работать с общими хранилищами (shared storage). Есть достаточно PowerCLI командлетов для конфигурирования большинства аспектов HA/DRS кластеров, однако для SDRS кластеров выбор не велик.
Компания VMware выпустила большое обновление своего средства для управления виртуальной инфраструктурой, доступное на VMware Labs. На днях вышел веб-клиент VMware vSphere Client 3.19. Напомним, что он построен на базе технологии HTML5 и работает намного быстрее своего предшественника vSphere Web Client. Пару недель назад мы писали о версии 3.18, а уже подоспело большое обновление. Видимо, это к предстоящему VMworld 2017.
Итак, новые возможности vSphere Client 3.19:
Добавление хостового и клиентского USB-устройства к виртуальной машине.
Добавление USB-контроллера.
Действие по добавлению лицензии на сервер vCenter, кластер или хост.
Редактирование и клонирование политики хранилищ (VM Storage Policy), а также для отдельных ВМ (Actions > VM Policies > Edit VM Storage Policies).
Компонентное представление политики хранилищ. Создание и удаление компонентов.
Представление Related VM Templates для политики хранилищ.
Монтирование датасторов VVol.
Новый портлет VVOL Capability Profiles Capacity.
Создание и изменение спецификаций кастомизации ВМ (пока без кастомных конфигураций сетевого взаимодействия)
Конфигурация для отдельных дисков при клонировании ВМ или шаблона на странице Select storage.
Списки хостов могут быть отсортированы по потреблению CPU и памяти.
Мониторинг использования памяти DRS для кластеров, позволяющий переключаться между графиками active и consumed memory.
Обновленный интерфейс в мастере миграции, в части диалога compatibility issues - возможность отсортировать список по ВМ, хостам или самой проблеме совместимости.
Как мы видим, VMware наращивает темп по приближению к функциональности старого средства управления vSphere Web Client (их отличия приведены вот тут). Скачать VMware vSphere Client 3.19 можно с VMware Labs по этой ссылке.
На сайте документации VMware, касающейся хранилищ - storagehub.vmware.com, появилось два интересных документа, посвященных последней версии продукта для создания отказоустойчивых кластеров VMware vSAN 6.6.1.
Первый - vSAN 6.6.1 Upgrade Considerations, он рассказывает о том, как нужно проводить апгрейд на vSAN 6.6.1 с предыдущих версий. Основные разделы документа посвящены вопросам состава операций и последовательности апгрейда хранилищ, подготовке сетевой инфраструктуры, а также шагам процесса обновления версии vSAN.
Второй документ - "VMware vSAN Design and Sizing Guide". Это уже более серьезный док, где на 73 страницах рассказывается о том, как нужно строить архитектуру решения, а также планировать под нее необходимые емкости хранилищ.
Здесь содержимое документа посвящено, главным образом, планированию будущей архитектуры решения, получению сбалансированных конфигураций и обеспечению правильного жизненного цикла эксплуатации продукта. Также там рассматриваются вопросы касательно технических лимитов инфраструктуры vSAN и построения правильной сетевой инфраструктуры.
Где-то во время релиза обновленной версии платформы VMware vSphere 6.5 компания VMware выпустила и новую версию фреймворка PowerCLI 6.5, в котором было много новых возможностей, особенно касающихся управления кластером vSAN.
На днях же вышла версия PowerCLI 6.5.2 (сразу же после релиза vSphere 6.5 Update 1), посмотрим что там появилось нового, а также заодно упомянем новые фичи прошлого апдейта - PowerCLI 6.5.1 (он вышел 3 месяца назад).
Если раньше при перемещении ВМ использовался параметр Destination, который принимал тип folder, ESXi-хост, кластер или ресурс-пул (но только одно из вышеперечисленного), то теперь можно использовать параметр InventoryLocation для задания непосредственного конечного положения ВМ. Это упрощает перемещение ВМ, например, между серверами vCenter:
2. Можно использовать ISO из Content Library.
Теперь командлет New-CDDrive имеет параметр ContentLibraryIso, который можно использовать для указания ISO-образа в библиотеке.
3. Обновления экспериментальных фичей:
Set-HardDisk -ZeroOut. Этот параметр можно использовать для заполнения диска нулями при прямом обращении к хосту ESXi.
New-HardDisk -AdvancedSetting. Этот параметр используется для ассоциации правил Storage Distributed Resource Scheduler (SDRS).
New-VM -AdvancedSetting. Аналогично предыдущему пункту - нужен для правил SDRS.
Install-VMHostPatch. Весь этот командлет пока экспериментальный.
А вот что нового было в PowerCLI 6.5.1:
1. Автозагрузка модулей PowerShell.
Теперь после логина и выполнения запроса к командлету автоматически подгружаются все необходимые модули. Например, вот что происходит после выполнения Connect-VIServer (обратите внимание на состав модулей):
2. Новые и обновленные командлеты для групп кластеров DRS и правил VM/Host.
Следующие командлеты были добавлены:
Get-DRSClusterGroup
New-DRSClusterGroup
Set-DRSClusterGroup
Remove-DRSClusterGroup
Get-DRSVMHostRule
New-DRSVMHostRule
Set-DRSVMHostRule
Remove-DRSVMHostRule
3. Новый модуль VMware.VimAutomation.Srm для управления SRM.
Теперь он вынесен из основного модуля в отдельный.
4. Обновления API.
Для работы с внешними продуктами были очень существенно обновлены модули vR Ops (vRealize Operations) и Horizon (для работы с Horizon View 7.1 API).
5. Новые командлеты для iSCSI vSAN.
Здесь появились следующие командлеты для управления инициаторами и таргетами iSCSI:
Get-VsanIscsiInitiatorGroup
New-VsanIscsiInitiatorGroup
Set-VsanIscsiInitiatorGroup
Remove-VsanIscsiInitiatorGroup
Get-VsanIscsiTarget
New-VsanIscsiTarget
Set-VsanIscsiTarget
Remove-VsanIscsiTarget
Get-VsanIscsiInitiatorGroupTargetAssociation
New-VsanIscsiInitiatorGroupTargetAssociation
Remove-VsanIscsiInitiatorGroupTargetAssociation
Get-VsanIscsiLun
New-VsanIscsiLun
Set-VsanIscsiLun
Remove-VsanIscsiLun
Get-VsanStat
Start-VsanDiskFormatUpdate
Get-VSANView
Также модуль Storage получил новые командлеты для механизма storage policy based management (SPBM):
Недавно мы писали о выходе первого пакета обновления платформы VMware vSphere 6.5 Update 1, в рамках которого также было выпущено еще несколько апдейтов продуктовой линейки VMware, в том числе обновление решения для создания отказоустойчивых кластеров хранилищ vSAN 6.6.1.
Основная новая функция vSAN, о которой мы уже писали - это возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1. О ней хорошо рассказывается в следующем видео:
Между тем, в vSAN 6.6.1 появилось еще несколько интересных фич, которые обычно присущи среднему (а не минорному) обновлению:
1. Раздел vSAN Performance Diagnostics.
Теперь на вкладке vSAN в Web Client появился пункт Performance Diagnostics, в котором можно запускать различные бенчмарки и сравнивать полученные результаты с предыдущими их выполнениями:
Кроме того, по результатам исполнения бенчмарков будут выданы рекомендации по увеличению производительности кластера хранилищ, такие как увеличение размера дисковой группы, добавление новых дисковых групп или изменение числа виртуальных машин.
Тест проводится около 1 часа, после чего делается вывод о том, достигнуты ли значения параметров maximum IOPS, maximum throughtput и minimum latency. Если нет - то будут выписаны рекомендации.
Для работы этой возможности необходимо, чтобы были включены фичи Customer Experience Improvement Program (CEIP) и vSAN Performance Service.
2. Поддержка Config Generation.
С переходом vSAN 6.6 на юникастовую коммуникацию с vCenter, последний воспринимается как единственный источник доверительной конфигурации. Однако, если vCenter становился недоступным, а конфигурация кластера менялась, то при возобновлении доступности vCenter конфигурация откатывалась к прежней. Теперь же есть параметр Config Generation, содержащих GUID и время последних изменений конфига.
3. Хэлсчеки для VUM.
Так как vSAN теперь обновляется через VMware Update Manager (VUM), то в разделе Health появились новые проверки состояний:
4. Поддержка миганий индикаторов для HP Gen9.
Теперь vSAN 6.6.1 может заставлять мигать LED-индикаторы на серверах HP Gen9 на выбранных устройствах, что позволяет упростить идентификацию отдельных дисков в очень больших окружениях.
Эта фича работает как в режиме RAID, так и в режиме pass-through.
Загрузить VMware vSAN 6.6.1 можно по этой ссылке. Release Notes доступны тут. А вот тут можно скачать документ с описаниями новых возможностей.
Как один из вариантов резервирования инфраструктуры App Volumes там рассматривается поддержание резервной инфраструктуры серверов App Volumes Managers и баз данных SQL Server на каждой площадке (их может быть не только две, но и больше):
Но проблема в том, что права доступа пользователей (Entitlements) в этом случае не синхронизированы (они хранятся на SQL Server), что повлечет за собой проблемы доступа при переключении на резервную площадку.
Для решения этой проблемы коллеги написали PowerShell-скрипт, который позволяет синхронизировать назначения прав (Entitlements) на основной и резервной площадках. При этом данный скрипт не реплицирует данные AppStacks, которые можно перенести обычным копированием, либо автоматизировать этот процесс за счет настройки Storage Groups, как это описано в документе "App Volumes Deployment Considerations".
Сначала проверьте работоспособность данного сценария, а потом уже можно добавить его, например, в планировщик Windows.
Весной этого года вышло обновление решения для создания отказоустойчивых кластеров для виртуальных машин на платформе vSphere - VMware vSAN 6.6. Прошлая версия продукта Virtual SAN 6.5 вышла еще осенью 2016 года, и vSAN 6.6 заметно продвинулся в плане функционала. Но, оказывается, это решение стало еще и существенно лучше в плане производительности. И на эту тему есть полезный документ "vSAN 6.6 Performance Improvements", описывающий результаты тестирования обеих версий продукта.
Для тестов использовалось одинаковое оборудование (кластер All-Flash) и 3 типа симуляции рабочей нагрузки:
Random Read
Random Write
Mixed random Read/Write (70/30%)
Посмотрим на графики, показывающие улучшения в различных аспектах:
Большое рабочее множество данных (Large Working Set)
Это самый нагрузочный вариант использования системы хранения, когда на нее идут длинные и непрерывные операции записи, иногда перемежающиеся операциями чтения.
Так выглядит суммаризованный график улучшения по числу IOPS для трех типов нагрузок и различных уровнях RAID:
Вот так выглядит уменьшение задержек при обращении к дискам (Latency). Чем ниже столбик - тем сильнее уменьшилась задержка:
Так выглядит отдельный график по IOPS для типа нагрузки 70% чтения и 30% записи:
Так выглядит Latency для этого типа нагрузки:
IOPS для Random Writes:
Latency для Random Writes:
Малое рабочее множество данных (Small Working Set)
Этот вариант использования хранилища меньше зависит от аппаратных особенностей и больше способен показать улучшения, сделанные в программных компонентах. Несмотря на то, что он не встречается в чистом виде (как впрочем и Large Working Set), малые рабочие множества встречаются в среде, где работают много небольших задач одновременно, обращения которых к хранилищам перемешиваются в потоке ввода-вывода.
Так выглядит суммаризованный график улучшения по числу IOPS для трех типов нагрузок и различных уровнях RAID (заметьте, что процент улучшений здесь значительно выше, чем для Large Working Set):
Вот так выглядит уменьшение задержек при обращении к дискам (Latency). Чем ниже столбик - тем сильнее уменьшилась задержка (также улучшения более существенны, чем для Large Working Set):
Так выглядит отдельный график по IOPS для типа нагрузки 70% чтения и 30% записи:
Так выглядит Latency для этого типа нагрузки:
IOPS для Random Writes:
Latency для Random Writes:
В целом, мы видим, что по всем параметрам и для всех аспектов (рабочее множество, тип нагрузки, уровень RAID) решение vSAN 6.6 обходит своего предшественника (а в некоторых случаях - весьма существенно).
На днях компания VMware выпустила очередное обновление главного клиента для управления виртуальной инфраструктурой - VMware vSphere Client 3.17. Напомним, что этот клиент на базе технологии HTML5 скоро заменит собой устаревший vSphere Web Client. О прошлой версии vSphere Client 3.16, которая вышла пару недель назад, мы писали вот тут.
Давайте взглянем на новые возможности VMware vSphere Client 3.17:
Функции создания новой политики хранения ВМ (VM Storage Policy). Пока в рамках данной версии клиента можно делать следующие вещи:
Миграция Host Networking на распределенный коммуатор Distributed Switch.
Настроить адрес шлюза на адаптерах VMkernel (только в ESXi 6.5).
Поддержка механизма управления трафиком Network I/O Control v3.
Настройки опций аппаратного обеспечения при клонировании ВМ или развертывании ее из шаблона.
Создание политик хранения для томов VVol.
Также были сделаны следующие улучшения:
Оповещение при изменении настроек ВМ или операциях со снапшотами, что машина управляется данным клиентом.
Предупреждение, если свободного места на датасторе осталось меньше, чем размер файла, который пользователь пытается залить на датастор.
Скачать тонкий клиент VMware vSphere Client 3.17 можно по этой ссылке.
Не так давно мы писали про документ "RDSH Session Load-Balancing in Horizon 6 and Horizon 7", в котором рассматриваются вопросы балансировки нагрузки на ферму серверов RDSH, в рамках которой работают терминальные приложения и сессии пользователей.
Ну а на днях VMware выпустила на тему RDSH не менее интересный документ "VMware Horizon Apps Performance Reference Architecture", раскрывающий вопросы производительности большой инфраструктуры доставки приложений и терминальных сессий.
Для тестов была взята некая референсная архитектура решения, работающая на базе технологии App Volumes с пулами наиболее используемых приложений, и рассмотрены различные варианты отработки виртуальной инфраструктурой нагрузок в гостевых системах. Сами виртуальные десктопы создавались посредством технологии Instant Clone.
Вот такая архитектура рассматривалась при тестировании:
А так были распределены рабочие нагрузки по хост-серверам VMware ESXi:
Результаты рассматривали в пяти аспектах:
1. Производительность работы пользователей (User-Experience Performance Results).
Время отклика при росте количества одновременных сессий всегда находилось в норме и росло линейно:
2. Пиковые нагрузке при массовой загрузке десктопов (Boot Storms).
Хосты отрабатывали нагрузки Boot Storms на 70% загрузках мощности, после чего нормализовывали текущий уровень:
3. Производительность работы хост-серверов (Host Performance Results).
Хосты RDSH отрабатывали хорошо:
А хосты обслуживания инфраструктуры vSphere и Horizon еще лучше:
4. Производительность виртуальных машин (Virtual Machine Performance Results).
Машины в среднем не были загружены по ресурсам в пике более чем на 50%:
5. Производительность подсистемы хранения (Storage Performance Results).
Виртуальные машины RDSH выдавали вполне приемлемые показатели производительности хранилищ:
На самом деле, документ содержит десятки интересных графиков, таблиц и инсайтов. Очень рекомендуется к прочтению тем, кто планирует у себя развертывание инфраструктуры виртуализованных приложений и терминальных серверов RDSH.
Многие из вас знакомы с решением номер 1 на рынке для создания программных отказоустойчивых кластеров хранилищ StaWind Virtual SAN. За последнее время продукты компании сделали большой шаг вперед, в том числе в плане интерфейсов, и сегодня мы рассмотрим процесс установки и начала использования централизованного средства мониторинга кластеров Storage Spaces Direct - StarWind Manager. Это полностью бесплатный продукт и доступен сейчас в статусе Preview.
Таги: StarWind, Manager, Storage, Microsoft, Spaces, S2D, Virtual SAN
Возможно не все из вас знают, что у компании Microsoft есть продукт Microsoft Azure Backup Server (MABS), являющийся "облачным наследником" средства резервного копирования Microsoft Data Protection Manager (MABS построен на его базе).
MABS предназначен для резервного копирования онпремизных и облачных нагрузок (IaaS) в виртуальных машинах, как на базе платформы Hyper-V и Microsoft Azure, так и на базе гипервизора VMware vSphere. Кроме того, MABS может бэкапить и физические системы с ПО Microsoft.
MABS очень хорошо подходит для небольших компаний и филиалов, где нет средств и целесообразности разворачивать дорогостоящую инфраструктуру резервного копирования, а в то же время предприятию приходиться использовать облачную инфраструктуру Microsoft Azure. Интересно, что само средство бесплатно для развертывания, но платит компания на базе модели "instance size + storage consumed" при использовании MABS. То есть оплата происходит по мере использования продукта (Pay-as-you-go).
MABS развертывается в инфраструктуре компании и позволяет делать резервные копии не только ВМ, но и приложений SQL Server, SharePoint и Exchange с поддержкой механизма VSS. Оперативное резервное копирование происходит в локальной инфраструктуре (чтобы бэкапы можно было быстро восстановить по LAN), а каждую ночь резервные копии отбрасываются еще и в облако Azure.
Недавно Microsoft выпустила Azure Backup Server v2, в котором появилось несколько важных улучшений:
Поддержка Windows Server 2016 - теперь последняя версия ОС и гипервизора от Microsoft поддерживается для создания резервных копий ВМ. Также MABS можно ставить на Windows Server 2016. Помимо этого поддерживаются продукты SQL Server 2016, SharePoint Server 2016 и Exchange Server 2016.
Поддержка VMware vSphere 6.5 - можно бэкапить виртуальные машин с серверов ESXi 6.5. Также появилась возможность восстановления ВМ в альтернативное размещение.
Фича Auto Protection для папки гипервизора VMware vSphere - все ВМ, которые в нее будут добавлены, будут автоматически защищены, как в локальной инфраструктуре, так и в облаке.
Улучшения хранилищ - теперь поддерживаются фичи Microsoft DPM 2016, включая систему резервного копирования на основе формата VHDX. Появилась поддержка механизма клонирования блоков REFS для инкрементальных бэкапов. Теперь задачи РК выполняются до 70% быстрее, сами бэкапы потребляют на 30% меньше хранилища, а также появилась технология Resilient Change Tracking (RCT) для инкрементальных резервных копий.
Для получения более подробной информации и загрузки Microsoft Azure Backup Server v2 сходите по этой ссылке. Документация по продукту доступна тут.
В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).
Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:
Если же такой аларм срабатывает, то он записывается в следующий лог-файл:
/var/log/vobd.log
Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":
И далее добавить соответствующий идентификатор, например, такой:
esx.problem.vob.vsan.pdl.offline
Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:
VOB ID
VOB Description
esx.audit.vsan.clustering.enabled
VSAN clustering services have been enabled.
esx.clear.vob.vsan.pdl.online
VSAN device has come online.
esx.clear.vsan.clustering.enabled
VSAN clustering services have now been enabled.
esx.clear.vsan.vsan.network.available
VSAN now has at least one active network configuration.
esx.clear.vsan.vsan.vmknic.ready
A previously reported vmknic now has a valid IP.
esx.problem.vob.vsan.lsom.componentthreshold
VSAN Node: Near node component count limit.
esx.problem.vob.vsan.lsom.diskerror
VSAN device is under permanent error.
esx.problem.vob.vsan.lsom.diskgrouplimit
Failed to create a new disk group.
esx.problem.vob.vsan.lsom.disklimit
Failed to add disk to disk group.
esx.problem.vob.vsan.pdl.offline
VSAN device has gone offline.
esx.problem.vsan.clustering.disabled
VSAN clustering services have been disabled.
esx.problem.vsan.lsom.congestionthreshold
VSAN device Memory/SSD congestion has changed.
esx.problem.vsan.net.not.ready
A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready.
esx.problem.vsan.net.redundancy.lost
VSAN doesn't haven any redundancy in its network configuration.
esx.problem.vsan.net.redundancy.reduced
VSAN is operating on reduced network redundancy.
esx.problem.vsan.no.network.connectivity
VSAN doesn't have any networking configuration for use.
esx.problem.vsan.vmknic.not.ready
A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use.
ad.event.ImportCertEvent
Import certificate success
ad.event.ImportCertFailedEvent
Import certificate failure
ad.event.JoinDomainEvent
Join domain success
ad.event.JoinDomainFailedEvent
Join domain failure
ad.event.LeaveDomainEvent
Leave domain success
ad.event.LeaveDomainFailedEvent
Leave domain failure
com.vmware.vc.HA.CreateConfigVvolFailedEvent
vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault}
com.vmware.vc.HA.CreateConfigVvolSucceededEvent
vSphere HA successfully created a configuration vVol after the previous failure
Компания VMware сделала доступной небольшую онлайн-утилиту для сайзинга серверов хранения виртуальных машин, работающих в отказоустойчивых кластерах хранилищ - VMware vSAN Sizer. Также она производит подбор необходимых конфигураций серверов (для расчетов принимается, что все узлы будут использовать конфигурацию All-Flash SSD).
От пользователя требуется лишь ввести число виртуальных машин и объем их виртуальных дисков (пока указано, что для расчета используется некий усредненный тип нагрузки, возможно, в будущем будут добавлены еще профили нагрузок ВМ).
На первом этапе нам показывают, сколько нужно серверов и неразмеченного хранилища (Raw Storage):
Ниже мы видим технические характеристики каждого из хостов ESXi:
Ну а в рамках дополнительной информации можно вывести параметры дисковых групп (кэш и емкость хранения). В моем случае это 2 дисковых группы:
В утилите VMware vSAN Sizer расположена ссылка на расширенную версию, которая доступна для партнеров, но когда я зашел под партнерским аккаунтом, то увидел там только пустую белую страницу с шапкой меню.